In recent years, large amounts of effort have been put into pushing forward the real-world application of dynamic digital human (DDH). However, most current quality assessment research focuses on evaluating static 3D models and usually ignores motion distortions. Therefore, in this paper, we construct a large-scale dynamic digital human quality assessment (DDH-QA) database with diverse motion content as well as multiple distortions to comprehensively study the perceptual quality of DDHs. Both model-based distortion (noise, compression) and motion-based distortion (binding error, motion unnaturalness) are taken into consideration. Ten types of common motion are employed to drive the DDHs and a total of 800 DDHs are generated in the end. Afterward, we render the video sequences of the distorted DDHs as the evaluation media and carry out a well-controlled subjective experiment. Then a benchmark experiment is conducted with the state-of-the-art video quality assessment (VQA) methods and the experimental results show that existing VQA methods are limited in assessing the perceptual loss of DDHs. The database will be made publicly available to facilitate future research.
translated by 谷歌翻译
在过去的十年中,数字人类吸引了越来越多的研究兴趣,而这些人的代表,渲染和动画已经付出了很大的努力。但是,数字人类的质量评估已落后。因此,为了应对数字人类质量评估问题的挑战,我们提出了第一个用于扫描数字人头(DHHS)的大规模质量评估数据库。构造的数据库由55个参考DHHS和1,540个扭曲的DHHS以及主观评分组成。然后,提出了一种简单而有效的全参考(FR)基于投影的方法。预处理的SWIN变压器微小用于分层提取,并将多头注意模块用于特征融合。实验结果表明,所提出的方法在主流FR指标中表现出最先进的表现。该工作中介绍的数据库和方法将公开可用。
translated by 谷歌翻译
由于预计不断增长的3D视觉应用程序将为用户提供具有成本效益和高质量的体验,因此人们非常强调点云的视觉质量。回顾点云质量评估(PCQA)方法的开发,通常通过使用单模式信息,即从2D投影或3D点云中提取的视觉质量进行评估。 2D投影包含丰富的纹理和语义信息,但高度依赖于观点,而3D点云对几何变形更敏感,并且对观点不变。因此,为了利用点云和投影图像模式的优势,我们提出了一种新型的无引用点云质量评估(NR-PCQA),以多模式方式进行。在具体上,我们将点云分为子模型,以表示局部几何变形,例如点移和下采样。然后,我们将点云渲染为2D图像投影,以进行纹理特征提取。为了实现目标,子模型和投影图像由基于点和基于图像的神经网络编码。最后,使用对称的跨模式注意来融合多模式质量意识的信息。实验结果表明,我们的方法的表现都优于所有最新方法,并且远远超过了先前的NR-PCQA方法,这突出了所提出方法的有效性。
translated by 谷歌翻译
3D点云的客观质量评估对于在现实世界应用中的沉浸式多媒体系统的开发至关重要。尽管对2D图像和视频的感知质量评估成功,但对于具有大规模不规则分布的3D点的3D点云仍然很少。因此,在本文中,我们提出了一个带有结构引导重采样(SGR)的客观点云质量指数,以自动评估3D密集点云的感知视觉质量。所提出的SGR是无需任何参考信息的通用盲质量评估方法。具体而言,考虑到人类视觉系统(HVS)对结构信息高度敏感,我们首先利用点云的唯一正常向量来执行区域预处理,其中包括按键重新采样和局部区域构建。然后,我们提取三组与质量相关的特征,包括:1)几何密度特征; 2)颜色自然特征; 3)角度一致性特征。人脑的认知特征和自然性的规律性都涉及设计的质量感知功能,这些特征可以捕获扭曲的3D点云的最重要方面。对几个公开可用的主点云质量数据库进行的广泛实验验证了我们提出的SGR可以与最新的全参考,减少引用和无参考质量评估算法竞争。
translated by 谷歌翻译
Point Cloud是3D内容使用最广泛使用的数字表示格式之一,其视觉质量可能会在生产过程中遇到噪声和几何变化,以及在传输过程中的压缩和压缩采样。为了应对点云质量评估(PCQA)的挑战,已经提出了许多PCQA方法来评估点云的视觉质量水平,以评估渲染的静态2D投影。尽管这种基于投影的PCQA方法在成熟图像质量评估(IQA)方法的帮助下实现了竞争性能,但它们忽略了动态质量感知信息,这与观察者倾向于通过两种静态感知点云的事实完全不符和动态视图。因此,在本文中,我们将点云视为移动相机视频,并通过使用视频质量评估(VQA)方法(NR)方式探索处理PCQA任务的方式。首先,我们通过四个圆形路径将相机围绕点云旋转来生成捕获的视频。然后,我们分别使用可训练的2D-CNN和预训练的3D-CNN模型从所选的关键帧和视频剪辑中提取空间和时间质量感知功能。最后,点云的视觉质量由回归的视频质量值表示。实验结果表明,所提出的方法可有效预测点云的视觉质量水平,甚至可以使用全参考(FR)PCQA方法竞争。消融研究进一步验证了提出的框架的合理性,并确认了从动态视图中提取的质量感知特征所做的贡献。
translated by 谷歌翻译
负担基础旨在找到物体的“行动可能性”区域,这是迈向体现智能的重要一步。由于交互负担的多样性,不同个体的独特性会导致各种互动,这使得很难在对象零件和负担能力标签之间建立明确的联系。人的能力将各种自以为是的相互作用转变为不变的以自负的负担来应对互动多样性的影响。为了使代理具有这种能力,本文提出了一项负担得起的任务,即从外向观点(即给定的中心人类对象的互动和以自我为中心的对象图像),学习对象的负担得起的知识并将其传输到中心图像​​中负担标签作为监督。但是,角色之间存在一些“互动偏见”,主要是关于不同的区域和不同观点。为此,我们设计了一个跨视图的负担得起的知识转移框架,该框架从Exentric互动中提取特定于负担的特定功能,并将其转移到以自我为中心的视图中。具体而言,通过保留负担共同关系来增强对负担区域的看法。此外,一个名为AGD20K的负担得起的基础数据集是通过收集和标记20k $ 36 $负担能力类别的20k图像来构建的。实验结果表明,我们的方法优于有关客观指标和视觉质量的代表性模型。代码在https://github.com/lhc1224/cross-view-affordance-grounding上发布。
translated by 谷歌翻译
具有病理注释的计算机断层扫描(CT)样品很难获得。结果,计算机辅助诊断(CAD)算法在小型数据集(例如带有1,018个样本的LIDC-IDRI)上进行了培训,从而限制了其准确性和可靠性。在过去的五年中,通过二维(2D)和三维(3D)自我监督学习(SSL)算法为CT病变的无监督表示量身定制了几项作品。 2D算法很难捕获3D信息,并且现有的3D算法在计算上很重。轻巧的3D SSL仍然是要探索的边界。在本文中,我们提出了螺旋形对比度学习(SCL),该学习以计算有效的方式产生3D表示。 SCL首先使用信息保护螺旋变换将3D病变转换为2D平面,然后使用2D对比度学习学习转换不变的特征。为了进行增强,我们考虑自然图像增强和医疗图像增强。我们通过在嵌入层上训练分类头来评估SCL。实验结果表明,对于无监督的代表性学习,SCL在LIDC-IDRI(89.72%),LNDB(82.09%)和天奇(90.16%)上实现了最先进的准确性。使用10%的带计算的注释数据,SCL的性能与监督学习算法的性能相当(Lidc-Idri的85.75%比85.03%,78.20%vs. 73.44%的LNDB和87.85%vs. 83.34%vs. 83.34%and。天奇,分别)。同时,与其他3D SSL算法相比,SCL将计算工作减少了66.98%,这证明了该方法在无监督的预训练中的效率。
translated by 谷歌翻译
随着渲染技术的开发,计算机图形生成的图像(CGI)已被广泛用于实践应用程序,例如建筑设计,视频游戏,模拟器,电影等。与自然场景图像(NSIS)不同,CGIS的扭曲是通常是由于施用设置不良和计算资源有限而引起的。更重要的是,某些CGI也可能遭受云游戏和流媒体等传输系统中的压缩变形。但是,已经提出了有限的工作来解决计算机图形生成图像的质量评估(CG-IQA)的问题。因此,在本文中,我们建立了一个大规模的主观CG-IQA数据库,以应对CG-IQA任务的挑战。我们通过以前的数据库和个人收藏来收集25,454个野外CGI。清洁数据后,我们仔细选择1,200 CGI来进行主观实验。在我们的数据库中测试了几种流行的无参考图像质量评估(NR-IQA)方法。实验结果表明,基于手工制作的方法与主观判断和基于深度学习的方法实现了较低的相关性,获得了相对更好的性能,这表明当前的NR-IQA模型不适合CG-IQA任务,并且迫切需要更有效的模型。
translated by 谷歌翻译
由于空间分辨率的巨大改进,4K内容可以为消费者提供更严肃的视觉体验。但是,由于分辨率扩大和特定的扭曲,现有的盲图质量评估(BIQA)方法不适合原始和升级的4K内容物。在本文中,我们提出了一个针对4K内容的深度学习的BIQA模型,一方面可以识别True和pseudo 4K内容,另一方面可以评估其感知视觉质量。考虑到高空间分辨率可以代表更丰富的高频信息的特征,我们首先提出了基于灰色级别的共发生矩阵(GLCM)的纹理复杂度度量,以从4K图像中选择三个代表性图像贴片,这可以减少计算复杂性,被证明对通过实验的总体质量预测非常有效。然后,我们从卷积神经网络(CNN)的中间层中提取不同种类的视觉特征,并将它们集成到质量感知的特征表示中。最后,使用两个多层感知(MLP)网络用于将质量感知功能映射到类概率和每个贴片的质量分数中。总体质量指数是通过平均贴片结果汇总获得的。提出的模型通过多任务学习方式进行了训练,我们引入了不确定性原理,以平衡分类和回归任务的损失。实验结果表明,所提出的模型的表现均优于所有4K内容质量评估数据库中的BIQA指标。
translated by 谷歌翻译
智能视频监视系统(IVSS)可以自动分析监视图像(SI)的内容并减轻体力劳动的负担。但是,SIS在获取,压缩和传播过程中可能会遭受质量下降,这使得IVSS难以理解SIS的内容。在本文中,我们首先进行了一个示例实验(即面部检测任务),以证明SIS的质量对IVSS的性能具有至关重要的影响,然后提出一个基于显着的深神经网络,以实现盲目质量评估SIS,这有助于IVSS过滤低质量的SIS并改善检测和识别性能。具体而言,我们首先计算SI的显着性图以选择最突出的局部区域,因为显着区域通常包含丰富的语义信息,以实现机器视觉,因此对SIS的整体质量产生了很大的影响。接下来,采用卷积神经网络(CNN)来提取整个图像和局部区域的质量感知功能,然后分别通过完全连接的(FC)网络映射到全球和本地质量分数中。最后,将整体质量得分计算为全球和本地质量分数的加权总和。 SI质量数据库(SIQD)的实验结果表明,所提出的方法优于所有最新的BIQA方法。
translated by 谷歌翻译